3,402 research outputs found

    Detecção de ataques por canais laterais na camada física

    Get PDF
    Today, with the advent of IoT and the resulting fragmentation of wireless technologies, they bring not only benefits, but also concerns. Daily, several individuals communicate with each other using various communication methods. Individuals use a variety of devices for innocuous day-to-day activities; however, there are some malicious individuals (dishonest agents) whose aim is to cause harm, with the exfiltration of information being one of the biggest concerns. Since the security of Wi-Fi communications is one of the areas of greatest investment and research regarding Internet security, dishonest agents make use of side channels to exfiltrate information, namely Bluetooth. Most current solutions for anomaly detection on networks are based on analyzing frames or packets, which, inadvertently, can reveal user behavior patterns, which they consider to be private. In addition, solutions that focus on inspecting physical layer data typically use received signal power (RSSI) as a distance metric and detect anomalies based on the relative position of the network nodes, or use the spectrum values directly on models classification without prior data processing. This Dissertation proposes mechanisms to detect anomalies, while ensuring the privacy of its nodes, which are based on the analysis of radio activity in the physical layer, measuring the behavior of the network through the number of active and inactive frequencies and the duration of periods of silence and activity. After the extraction of properties that characterize these metrics,an exploration and study of the data is carried out, followed by the use of the result to train One-Class Classification models. The models are trained with data taken from a series of interactions between a computer, an AP, and a mobile phone in an environment with reduced noise, in an attempt to simulate a simplified home automation scenario. Then, the models were tested with similar data but containing a compromised node, which periodically sent a file to a local machine via a Bluetooth connection. The data show that, in both situations, it was possible to achieve detection accuracy rates in the order of 75 % and 99 %. This work ends with some ideas of resource work, namely changes in the level of pre-processing, ideas of new tests and how to reduce the percentage of false negatives.Hoje, com o advento da IoT e a resultante fragmentação das tecnologias sem fio, elas trazem não apenas benefícios, mas também preocupações. Diariamente vários indivíduos se comunicam entre si usando vários métodos de comunicação. Os indivíduos usam uma variedade de dispositivos para atividades inócuas do dia-adia; no entanto, existem alguns indivíduos mal-intencionados (agentes desonestos) cujo objetivo é causar danos, sendo a exfiltração de informação uma das maiores preocupações. Sendo a segurança das comunicações Wi-Fi uma das áreas de maior investimento e investigação no que toca a segurança na Internet, os agentes desonestos fazem uso de canais laterais para exfiltrar informação, nomeadamente o Bluetooth. A maioria das soluções atuais para deteção de anomalias em redes baseiam-se em analisar tramas ou pacotes, o que, inadvertidamente, pode revelar padrões de comportamento dos utilizadores, que estes considerem privados. Além disso, as soluções que se focam em inspecionar dados da camada física normalmente usam a potência de sinal recebido (RSSI) como uma métrica de distância e detetam anomalias baseadas na posição relativa dos nós da rede, ou usam os valores do espetro diretamente em modelos de classificação sem prévio tratamento de dados. Esta Dissertação propõe mecanismos para deteção de anomalias, assegurando simultaneamente a privacidade dos seus nós, que se baseiam na análise de atividade rádio na camada física, medindo os comportamentos da rede através do número de frequências ativas e inativas e a duração de períodos de silêncio e atividade. Depois da extração de propriedades que caracterizam estas métricas, é realizada uma exploração dos dados e um estudo das mesmas, sendo depois usadas para treinar modelos de classificação mono-classe. Os modelos são treinados com dados retirados de uma série de interações entre um computador, um AP, e um telemóvel num ambiente com ruído reduzido, numa tentativa de simular um cenário de automação doméstica simplificado. De seguida, os modelos foram testados com dados semelhantes mas contendo um nó comprometido, que periodicamente enviava um ficheiro para uma máquina local através de uma ligação Bluetooth. Os dados mostram que, em ambas as situações, foi possível atingir taxas de precisão de deteção na ordem dos 75% e 99%. Este trabalho finaliza com algumas ideias de trabalho futuro, nomeadamente alterações ao nível do pré-processamento, ideias de novos testes e como diminuir a percentagem de falsos negativos.Mestrado em Engenharia de Computadores e Telemátic

    Avaliação da influência dos parâmetros de ensaio no índice de fluidez de termoplásticos

    Get PDF
    O presente trabalho teve como objectivos avaliar a influência de diversas grandezas e parâmetros de ensaio no índice de fluidez de termoplásticos e calcular a incerteza associada às determinações. Numa primeira fase, procedeu-se à identificação dos principais parâmetros que influenciam a determinação do índice de fluidez, tendo sido seleccionados a temperatura do plastómetro, o peso de carga, o diâmetro da fieira, o comprimento da medição, o tipo de corte e o número de provetes. Para avaliar a influência destes parâmetros na medição do índice de fluidez, optou-se pela realização de um planeamento de experiências, o qual foi dividido em três etapas. Para o tratamento dos resultados obtidos utilizou-se como ferramenta a análise de variância. Após a completa análise dos desenhos factoriais, verificou-se que os efeitos dos factores temperatura do plastómetro, peso de carga e diâmetro da fieira apresentam um importante significado estatístico na medição do índice de fluidez. Na segunda fase, procedeu-se ao cálculo da incerteza associada às medições. Para tal seleccionou-se um dos métodos mais usuais, referido no Guia para a Expressão da Incerteza da Medição, conhecido como método GUM, e pela utilização da abordagem “passo a passo”. Inicialmente, foi necessária a construção de um modelo matemático para a medição do índice de fluidez que relacionasse os diferentes parâmetros utilizados. Foi estudado o comportamento de cada um dos parâmetros através da utilização de duas funções, recorrendo-se novamente à análise de variância. Através da lei de propagação das incertezas foi possível determinar a incerteza padrão combinada,e após estimativa do número de graus de liberdade, foi possível determinar o valor do coeficiente de expansão. Finalmente determinou-se a incerteza expandida da medição, relativa à determinação do índice de fluidez em volume.The present work had as main goals the evaluation of the influence of several variables and testing parameters in the flow index of thermoplastics and to determine the uncertainty associated to the measurements. Initially, we proceeded to the identification of the main parameters that influence the determination of the flow index. The temperature of the plastometer, the load weight, the diameter of the die, the length of the measurement, the type of cut and the number of samples have been selected. To evaluate the influence of these parameters in the measurement of the melt index, it was decided to carry out a design of experiments, which was divided into three steps. Results were analyzed using as a tool the analysis of variance. After a full analysis of factorial designs, it was found that the effects of factors temperature of the plastometer, load weight and diameter of the die showed an important statistical significance in the measurement of the flow index. After words we proceeded to the calculation of the measurement uncertainty. For this purpose, we selected one of the most common methods given in the “Guide to the Expression of Uncertainty in Measurement”, known as GUM, and the use of a “bottom-up” approach. Initially, it was necessary to build a mathematical model for measuring the melt index in order to relate the different parameters in use. The behavior of each of the parameters was studied through the use of two functions, and analysis of variance was again applied. Through the law of propagation of uncertainty it has been possible to determine the combined standard uncertainty and, after estimating the number of degrees of freedom, it was possible to determine the coverage factor. Finally the expanded uncertainty of the measurements, related to the determination of melt volume rate, was determined

    Multi-Agents System Approach to Industry 4.0: Enabling Collaboration Considering a Blockchain

    Get PDF
    Dissertação de Mestrado em Engenharia InformáticaThe evolution of existing technologies and the creation of new ones paved the way for a new revolution in the industrial sector. With the introduction of the existing and new technologies in the manufacturing environment, the industry is moving towards the fourth industrial revolution, called Industry 4.0. The fourth industrial revolution introduces many new components like 3D printing, Internet of things, artificial intelligence, and augmented reality. The automation of the traditional manufacturing processes and the use of smart technology are transforming industries in a more interconnected environment, where there is more transparent information and decentralised decisions. The arrival of Industry 4.0 introduces industries to a new environment, where their manufacturing processes are more evolved, more agile, and with more efficiency. The principles of Industry 4.0 rely on the interconnection of machines, devices, sensors, and people to communicate and connect. The transparency of information guaranties that decision makers are provided with clear and correct information to make informed decisions and the decentralisation of decisions will create the ability for machines and systems to make decisions on their own and to perform tasks autonomously. Industry 4.0 is making manufacturing processes more agile and efficient, but due to the fast pace of trends and the shift from the traditional mass production philosophy towards the mass customisation, following the Industry 4.0 guidelines might not be enough. The mass customisation paradigm was created from the desire that customers have in owning custom made products and services, tailor made to their needs. The idea to perform small tweaks in a product to face the needs of a consumer group, keeping the production costs like the ones from the mass production, without losing efficiency in the production. This paradigm poses great challenges to the industries, since they must be able to always have the capability to answer the demands that may arise from the preparation and production of personalised products and services. In the meantime, organisations will try to increasingly mark its position in the market, with competition getting less relevant and with different organisations worrying less with their performance on an individual level and worrying more about their role in a supply chain. The need for an improved collaboration with Industry 4.0 is the motivation for the model proposed in this work. This model, that perceives a set of organisations as entities in a network that want to interact with each other, is divided into two parts, the knowledge representation and the reasoning and interactions. The first part relies on the Blockchain technology to securely store and manage all the organisation transactions and data, guaranteeing the decentralisation of information and the transparency of the transactions. Each organisation has a public and private profile were the data is stored to allow each organisation to evaluate the others and to allow each organisation to be evaluated by the remainder of the organisations present in the network. Furthermore, this part of the model works as a ledger of the transactions made between the organisations, since that every time two organisations negotiate or interact in any way, the interaction is getting recorded. The ledger is public, meaning that every organisation in the network can view the data stored. Nevertheless, an organisation will have the possibility, in some situations, to keep transactions private to the organisations involved. Despite the idea behind the model is to promote transparency and collaboration, in some selected occasions organisations might want to keep transactions private from the other participants to have some form of competitive advantage. The knowledge representation part also wants to provide security and trust to the organisation that their data will be safe and tamper proof. The second part, reasoning and interactions, uses a Multi-Agent System and has the objective to help improve decision-making. Imagining that one organisation needs a service that can be provided by two other organisations, also present in the network, this part of the model is going to work towards helping the organisations choose what is the best choice, given the scenario and data available. This part of the model is also responsible to represent every organisation present in the network and when organisations negotiate or interact, this component is also going to handle the transaction and communicate the data to the first part of the model.A constante evolução de tecnologias atuais e a criação de novas tecnologias criou as condições necessárias para a existência de uma nova revolução industrial. Com a evolução de dispositivos móveis e com a chegada de novas tecnologias e ferramentas que começaram a ser introduzidas em ambiente industrial, como a impressão 3D, internet das coisas, inteligência artificial, realidade aumentada, entre outros, a industria conseguiu começar a explorar novas tecnologias e automatizar os seus processos de fabrico tradicionais, movendo as industrias para a quarta revolução industrial, conhecida por Industria 4.0. A adoção dos princípios da Indústria 4.0 levam as indústrias a evoluir os seus processos e a ter uma maior e melhor capacidade de produção, uma vez que as mesmas se vão tornar mais ágeis e introduzir melhorias nos seus ambientes de produção. Uma dessas melhorias na questão da interoperabilidade, com máquinas, sensores, dispositivos e pessoas a comunicarem entre si. A transparência da informação vai levar a uma melhor interpretação dos dados para efetuar decisões informadas, com os sistemas a recolher cada vez mais dados e informação dos diferentes pontos do processo de manufatura. (...

    Crowd sensing and forecasting for Smart Cities

    Get PDF
    Dissertação de mestrado integrado em Engenharia InformáticaA utilização de inteligência sob forma de tecnologia no nosso dia-a-dia é uma realidade em crescimento e, portanto, devemos fazer uso da tecnologia disponível para melhorar várias áreas do nosso quotidiano. Por exemplo, a tecnologia atual permite a conceção de sensores inteligentes, mais especificamente sensores de multidão, para detetar passiva mente dispositivos como smartphones ou smartwatches através de probe requests emitidos por estes dispositivos que, por sua vez, fazem parte de um processo de comunicação que ocorre sempre que o Wi-Fi dos dispositivos está ativado. Adicionalmente, crowd sensing - uma solução de Ambient Intelligence (AmI) - é estudada hoje em dia em várias áreas com bons resultados. Portanto, esta dissertação visa investigar e utilizar sensores de multidão para capturar passivamente dados acerca da densidade de multidões, explorar as capacidades do sensor escolhido, analisar e processar os dados para obter melhores estimativas, e conceber e desenvolver modelos de Machine Learning (ML) para prever a densidade nas áreas sensorizadas. Áreas nas quais o sensor de multidão está inserido - AmI, Smart Cities, Wi-Fi Probing - são estudadas, juntamente com a análise de diferentes abordagens ao crowd sensing, assim como paradigmas e algoritmos de ML. Em seguida, é explicado como os dados foram capturados e analisados, seguido por uma experiência feita às capacidades do sensor. Além disso, é apresentado como os modelos de ML foram concebidos e otimizados. Finalmente, os resultados dos vários testes de ML são discutidos e o modelo com melhor desempenho é apresentado. A investigação e os resultados práticos abrem perspetivas importantes para a implementação deste tipo de soluções na nossa vida diária.Bringing intelligence to our everyday environments is a growing reality and therefore we should take advantage of the technology available to improve several areas of our daily life. For example, current technology allows the conception of smart scanners, more specifically crowd sensors, to passively detect devices such as smartphones or smartwatches through probe requests emitted by such devices, that, in turn, are part of a communication process that happens every time the devices’ Wi-Fi is enabled. Additionally, crowd sensing - an Ambient Intelligence (AmI) solution - is being studied nowadays in several areas with good results. Therefore, this dissertation aims to research and use crowd sensors to passively collect crowd density data, explore the capabilities of the chosen sensor, analyse and process the data to get better estimations and conceive and develop Machine Learning (ML) models to forecast the density of the sensed areas. Areas in which crowd sensing is inserted - AmI, Smart Cities, Wi-Fi probing - are studied, along with the analysis of different crowd sensing approaches and ML paradigms and algorithms. Then, it’s explained how the data was collected and analysed together with the insights obtained from it, followed by an experiment done on the crowd sensor capabilities. Moreover, it’s presented how the ML models were conceived and tuned. Finally, the results from the ML several tests are discussed and the best performing model is found. The investigation, together with practical results, opens important perspectives for the implementation of these kinds of solutions in our daily lives

    Four Conditions for Research in Psychoanalysis

    Get PDF
    This article discusses the use of psychoanalysis – particularly of psychoanalytic technique based on free association – for investigations in the field of social psychology, based on the authors’ experience in a graduate program. To this end, we have attempted to produce a reflection on the conditions and the impact of the dislocation of concepts between the clinic of individual psychic suffering and empirical research involving institutions and groups. By focusing on the assertion of the primacy of the unconscious, we have tried to array the lines of approximation and distancing between clinical practice and empirical research. The basis is the discussion on the necessary conditions (outside of the therapeutic setting) for listening to the unconscious, for creating a transference bond, for the work of interpretation of the discourses of subjects and, finally, for the elaboration of unconscious contents and desires – whether by the subjects listened to in this research or by the researchers themselves in their work of theoretical elaboration

    Software para gerenciamento e controle da produção de leite

    Get PDF
    TCC(graduação) - Universidade Federal de Santa Catarina. Centro Tecnológico. Ciências da Computação.A pecuária de leite é uma das atividades mais importantes no agronegócio brasileiro. Sendo praticada principalmente nas propriedades rurais pertencentes à agricultura familiar. No mercado de software brasileiro, existem alguns sistemas disponíveis para o gerenciamento da produção de leite nas propriedades rurais. Observando as más funcionalidades destes sistemas, juntamente com as necessidades dos produtores de leite, além do crescimento da informatização do meio rural. Originou-se a proposta do Ordenha Digital. Ordenha Digital é um software desenvolvido neste trabalho. Com o intuito de auxiliar os produtores de leite. Em especial os produtores da agricultura familiar, a gerenciarem a atividade

    Synfeal: A Data-Driven Simulator for End-to-End Camera Localization

    Full text link
    Collecting real-world data is often considered the bottleneck of Artificial Intelligence, stalling the research progress in several fields, one of which is camera localization. End-to-end camera localization methods are still outperformed by traditional methods, and we argue that the inconsistencies associated with the data collection techniques are restraining the potential of end-to-end methods. Inspired by the recent data-centric paradigm, we propose a framework that synthesizes large localization datasets based on realistic 3D reconstructions of the real world. Our framework, termed Synfeal: Synthetic from Real, is an open-source, data-driven simulator that synthesizes RGB images by moving a virtual camera through a realistic 3D textured mesh, while collecting the corresponding ground-truth camera poses. The results validate that the training of camera localization algorithms on datasets generated by Synfeal leads to better results when compared to datasets generated by state-of-the-art methods. Using Synfeal, we conducted the first analysis of the relationship between the size of the dataset and the performance of camera localization algorithms. Results show that the performance significantly increases with the dataset size. Our results also suggest that when a large localization dataset with high quality is available, training from scratch leads to better performances. Synfeal is publicly available at https://github.com/DanielCoelho112/synfeal
    corecore